在核成像中,有限的分辨率会导致影响图像清晰度和定量准确性的部分体积效应(PVE)。已证明来自CT或MRI的高分辨率解剖信息的部分体积校正(PVC)已被证明是有效的。但是,这种解剖学引导的方法通常需要乏味的图像注册和分割步骤。由于缺乏具有高端CT和相关运动伪像的混合体SPECT/CT扫描仪,因此很难获得准确的分段器官模板,尤其是在心脏SPECT成像中。轻微的错误注册/错误分段将导致PVC后的图像质量严重降解。在这项工作中,我们开发了一种基于深度学习的方法,用于快速心脏SPECT PVC,而无需解剖信息和相关的器官分割。所提出的网络涉及密集连接的多维动态机制,即使网络经过充分训练,也可以根据输入图像对卷积内核进行调整。引入了心脏内血容量(IMBV)作为网络优化的附加临床损失函数。提出的网络表明,使用Technetium-99M标记的红细胞在GE发现NM/CT 570C专用心脏SPECT扫描仪上获得的28个犬类研究表现有希望的表现。这项工作表明,与没有这种机制的同一网络相比,具有密集连接的动态机制的提议网络产生了较高的结果。结果还表明,没有解剖信息的提出的网络可以与解剖学引导的PVC方法产生的图像产生具有统计上可比的IMBV测量的图像,这可能有助于临床翻译。
translated by 谷歌翻译
在法医语音比较中,扬声器的嵌入在过去十年中已广泛流行。大多数审计的扬声器嵌入式嵌入都经过英语语料库进行培训,因为它很容易访问。因此,语言依赖性可能是自动法医语音比较的重要因素,尤其是当目标语言在语言上非常不同时。有许多商业系统可用,但是它们的模型主要接受与目标语言不同的语言(主要是英语)的培训。在低资源语言的情况下,开发用于法医目的的语料库,其中包含足够的扬声器来训练深度学习模型是昂贵的。这项研究旨在调查是否可以在目标低资源语言(匈牙利语)上使用预先培训的英语语料库的模型,与模型不同。另外,通常没有犯罪者(未知的扬声器)获得多个样本。因此,在有或没有说话者入学率的嫌疑人(已知)扬声器的情况下对样品进行比较。应用了两个语料库,这些语料库是专门用于法医目的的,第三个是用于传统演讲者验证的第三个语料库。使用了两种基于深度学习的扬声器嵌入向量提取方法:X-Vector和Ecapa-TDNN。说话者验证在可能性比率框架中进行了评估。在语言组合(建模,LR校准,评估)之间进行了比较。通过MinCllr和EER指标评估了结果。发现该模型以不同的语言进行了预先训练,但是在具有大量扬声器的语料库上,在语言不匹配的样本上表现良好。还检查了样本持续时间和口语样式的影响。发现相关样本的持续时间越长,性能就越好。另外,如果采用各种口语样式,则没有真正的区别。
translated by 谷歌翻译
使用深度学习神经网络的AI发动机为分析传统棋盘游戏提供了出色的工具。在这里,我们有兴趣获得对古老游戏的新见解。为此,我们需要根据发动机的原始输出来定义新的数值度量。在本文中,我们开发了一种数值工具,用于以上下文敏感的方式进行自动移动性能评估并识别游戏功能。我们通过传递成本来衡量移动的紧迫性,这是石头当前配置和在同一董事会位置的假设传递之后的得分值差。在这里,我们研究了此度量的属性并描述了一些应用。
translated by 谷歌翻译
部分可观察到的马尔可夫决策过程(POMDP)是适用于许多现实世界问题的框架。在这项工作中,我们提出了一种方法,通过依靠解决完全可观察的版本的策略来解决具有多模式信念的POMDP。通过deleinig,基于完全可观察到的变体的值函数的新的混合价值函数,我们可以使用相应的贪婪策略来求解POMDP本身。我们开发了讨论所需的数学框架,并引入了基于侦察盲tictactoe的任务的基准。在此基准测试中,我们表明我们的政策优于政策,而忽略了多种模式的存在。
translated by 谷歌翻译
长期以来,共同基金或交易所交易基金(ETF)的分类已为财务分析师提供服务,以进行同行分析,以从竞争对手分析开始到量化投资组合多元化。分类方法通常依赖于从n-1a表格中提取的结构化格式的基金组成数据。在这里,我们启动一项研究,直接从使用自然语言处理(NLP)的表格中描绘的非结构化数据中学习分类系统。将输入数据仅作为表格中报告的投资策略描述,而目标变量是Lipper全球类别,并且使用各种NLP模型,我们表明,分类系统确实可以通过高准确率。我们讨论了我们发现的含义和应用,以及现有的预培训架构的局限性在应用它们以学习基金分类时。
translated by 谷歌翻译
我们介绍了Netket的版本3,机器学习工具箱适用于许多身体量子物理学。Netket围绕神经网络量子状态构建,并为其评估和优化提供有效的算法。这个新版本是基于JAX的顶部,一个用于Python编程语言的可差分编程和加速的线性代数框架。最重要的新功能是使用机器学习框架的简明符号来定义纯Python代码中的任意神经网络ANS \“凝固的可能性,这允许立即编译以及渐变的隐式生成自动化。Netket 3还带来了GPU和TPU加速器的支持,对离散对称组的高级支持,块以缩放多程度的自由度,Quantum动态应用程序的驱动程序,以及改进的模块化,允许用户仅使用部分工具箱是他们自己代码的基础。
translated by 谷歌翻译
我们提出了一种解决从脸部单个运动模糊图像的新观点渲染夏普视频的新颖任务。我们的方法通过隐式地通过三个大型数据集的联合训练来处理面部的几何和运动来处理面部模糊的复杂性:FFHQ和300VW,我们构建的新伯尔尼多视图DataSet(BMFD) 。前两个数据集提供了各种各样的面,并允许我们的模型更好地概括。 BMFD允许我们引入多视图约束,这对于从新的相机视图综合夏普视频至关重要。它由来自多个主题的多种视图的高帧速率同步视频组成,这些拍摄对象的多个观点显示了广泛的面部表情。我们使用高帧率视频通过平均来模拟现实运动模糊。感谢此数据集,我们训练一个神经网络,从单个图像和相应的面凝视中重建3D视频表示。然后,我们将相对于估计的凝视和模糊图像提供相机视点,作为对编码器解码器网络的输入,以生成具有新颖的相机视点的锐框的视频。我们在我们的多视图数据集和Vidtimit的测试对象上展示了我们的方法。
translated by 谷歌翻译
贝叶斯优化是一种强大的范例,可以根据稀缺和嘈杂的数据优化黑盒功能。通过从相关任务转移学习,可以进一步提高其数据效率。虽然最近的转移模型META-META-GERSED基于大量数据,但在利用高斯过程(GPS)的闭合形式的闭合形式(GPS)的低数据制度方法中具有优势。在这种环境中,已经提出了几种分析易行的转移模型后索,但这些方法的相对优势并不熟知。在本文中,我们对转移学习的分层GP模型提供了一个统一视图,这使我们能够分析方法之间的关系。作为分析的一部分,我们开发了一种新颖的封闭式GP转移模型,适合在复杂性方面的现有方法。我们评估了大规模实验中不同方法的性能,并突出了不同转移学习方法的优势和弱点。
translated by 谷歌翻译
我用Hunglish2语料库训练神经电脑翻译任务的模型。这项工作的主要贡献在培训NMT模型期间评估不同的数据增强方法。我提出了5种不同的增强方法,这些方法是结构感知的,这意味着而不是随机选择用于消隐或替换的单词,句子的依赖树用作增强的基础。我首先关于神经网络的详细文献综述,顺序建模,神经机翻译,依赖解析和数据增强。经过详细的探索性数据分析和Hunglish2语料库的预处理之后,我使用所提出的数据增强技术进行实验。匈牙利语的最佳型号达到了33.9的BLEU得分,而英国匈牙利最好的模型达到了28.6的BLEU得分。
translated by 谷歌翻译
在过去的15年中,视网膜图像中的船只的分割已成为医学成像中的强烈研究问题,其中数百种算法发布。血管分割技术的DE事实上基准数据集之一是驱动数据集。由于驱动器包含训练和测试图像的预定义分割,因此各种分段技术的公布性能结果应提供算法的可靠排名。在该研究中包括超过100篇论文,我们对公布性能分数的一致性进行了详细的数值分析。我们发现与使用视野(FOV)相关的报告分数不一致,这对性能分数产生了重大影响。我们试图消除使用数值技术来提供偏差,以提供最逼真的现实情况。根据结果​​,我们制定了几种调查结果,最值得注意的是:尽管有明确定义的试验集,所公布论文中的大多数排名都基于非比较的数字;与文献中报告的近乎完善的准确度分数相反,迄今为止所达到的最高精度分数在FOV区域中为0.9582,比人类注释器高出1%。我们开发用于识别和消除评估偏差的方法可以很容易地应用于可能出现类似问题的其他域。
translated by 谷歌翻译